Graph convolutional neural networks (GCNs) have emerged as a key technology in various application domains where the input data is relational. A unique property of GCNs is that its two primary execution stages, aggregation and combination, exhibit drastically different dataflows. Consequently, prior GCN accelerators tackle this research space by casting the aggregation and combination stages as a series of sparse-dense matrix multiplication. However, prior work frequently suffers from inefficient data movements, leaving significant performance left on the table. We present GROW, a GCN accelerator based on Gustavson's algorithm to architect a row-wise product based sparse-dense GEMM accelerator. GROW co-designs the software/hardware that strikes a balance in locality and parallelism for GCNs, achieving significant energy-efficiency improvements vs. state-of-the-art GCN accelerators.
translated by 谷歌翻译
Recent advances in operator learning theory have improved our knowledge about learning maps between infinite dimensional spaces. However, for large-scale engineering problems such as concurrent multiscale simulation for mechanical properties, the training cost for the current operator learning methods is very high. The article presents a thorough analysis on the mathematical underpinnings of the operator learning paradigm and proposes a kernel learning method that maps between function spaces. We first provide a survey of modern kernel and operator learning theory, as well as discuss recent results and open problems. From there, the article presents an algorithm to how we can analytically approximate the piecewise constant functions on R for operator learning. This implies the potential feasibility of success of neural operators on clustered functions. Finally, a k-means clustered domain on the basis of a mechanistic response is considered and the Lippmann-Schwinger equation for micro-mechanical homogenization is solved. The article briefly discusses the mathematics of previous kernel learning methods and some preliminary results with those methods. The proposed kernel operator learning method uses graph kernel networks to come up with a mechanistic reduced order method for multiscale homogenization.
translated by 谷歌翻译
最近,由于社交媒体数字取证中的安全性和隐私问题,DeepFake引起了广泛的公众关注。随着互联网上广泛传播的深层视频变得越来越现实,传统的检测技术未能区分真实和假货。大多数现有的深度学习方法主要集中于使用卷积神经网络作为骨干的局部特征和面部图像中的关系。但是,本地特征和关系不足以用于模型培训,无法学习足够的一般信息以进行深层检测。因此,现有的DeepFake检测方法已达到瓶颈,以进一步改善检测性能。为了解决这个问题,我们提出了一个深度卷积变压器,以在本地和全球范围内纳入决定性图像。具体而言,我们应用卷积池和重新注意事项来丰富提取的特征并增强功效。此外,我们在模型训练中采用了几乎没有讨论的图像关键框架来改进性能,并可视化由视频压缩引起的密钥和正常图像帧之间的特征数量差距。我们最终通过在几个DeepFake基准数据集上进行了广泛的实验来说明可传递性。所提出的解决方案在内部和跨数据库实验上始终优于几个最先进的基线。
translated by 谷歌翻译
深神经网络使用多个函数绘制由输入向量表示的对象逐步映射到不同的表示形式,并通过足够的训练,最终为每个类别的单个分数,这是最终决策功能的输出。理想情况下,在此输出空间中,不同类别的对象实现了最大的分离。由于需要更好地理解深神经网络的内部工作,我们分析了学习表征从数据复杂性的角度分离类别的有效性。使用简单的复杂度度量,流行的基准测试任务以及众所周知的架构设计,我们展示了数据复杂性如何通过网络演变,培训期间的变化以及如何受到网络设计的影响以及培训的可用性样品。我们讨论观察结果的含义和进一步研究的潜力。
translated by 谷歌翻译
在这项工作中,介绍了一个内核注意模块,用于通过神经网络进行基于脑电图的情绪分类的任务。所提出的模块通过执行内核技巧来利用自我发挥的机制,要求比标准注意模块更少的可训练参数和计算。该设计还为定量检查深度精炼中分配的注意力的量提供了标量,因此有助于更好地解释训练有素的模型。使用EEGNET作为骨干模型,与其他SOTA注意模块相比,在种子数据集上进行了广泛的实验,以评估模块内部主体内分类任务的性能。仅需要一个额外的参数,插入的模块被证明可以将基本模型的平均预测精度提高到15个受试者的1 \%以上。该方法的一个关键组成部分是解决方案的解释性,该解决方案使用几种不同的技术来解决,并作为依赖性分析的一部分包含在整个过程中。
translated by 谷歌翻译
大规模弱监督的产品检索是实际上有用但在计算上具有挑战性的问题。本文介绍了在第九届CVPR 2022的第九次透明视觉分类研讨会(FGVC9)举行的eBay视觉搜索挑战赛(Eproduct)的新颖解决方案。这项竞赛提出了两个挑战:(a)电子商务是一个非常好的挑战。 - 包含的领域,包括许多具有细微视觉差异的产品; (b)缺少用于模型训练的目标实例级标签,只有粗糙的类别标签和产品标签可用。为了克服这些障碍,我们通过一系列专用设计制定了强大的解决方案:(a)我们从产品头衔中挖掘了数千个伪属性,而不是直接使用文本培训数据,并将其用作多标签分类的基础真相。 (b)我们将几个强大的骨架与高级培训配方结合在一起,以进行更判别的表示。 (c)我们进一步介绍了许多后处理技术,包括美白,重新排列和模型集合以进行检索。通过达到71.53%的3月,我们的解决方案“涉及国王”在排行榜上获得了第二个职位。
translated by 谷歌翻译